
怒斥Sora之后,LeCun放出「视觉世界模型」论文,揭示AI学习物理世界的关键
怒斥Sora之后,LeCun放出「视觉世界模型」论文,揭示AI学习物理世界的关键Sora 的发布让整个 AI 领域为之狂欢,但 LeCun 是个例外。
Sora 的发布让整个 AI 领域为之狂欢,但 LeCun 是个例外。
最近,OpenAI 的视频生成模型 Sora 爆火,生成式 AI 模型在多模态方面的能力再次引起广泛关注。
随着 Sora 的爆火,人们看到了 AI 视频生成的巨大潜力,对这一领域的关注度也越来越高。
最近,OpenAI 视频生成模型 Sora 的爆火,给基于 Transformer 的扩散模型重新带来了一波热度,比如 Sora 研发负责人之一 William Peebles 与纽约大学助理教授谢赛宁去年提出的 DiT(Diffusion Transformer)。
根据 OpenAI 披露的技术报告,Sora 的核心技术点之一是将视觉数据转化为 patch 的统一表征形式,并通过 Transformer 和扩散模型结合,展现了卓越的扩展(scale)特性。
Sora 的出现,会如何改变电子游戏开发和制作流程,带来怎么样的范式转移,也是行业关注的问题。
近期,DiT(Diffusion Transformer)论文的作者谢赛宁在朋友圈分享了他对 Sora 的看法,其中核心资源的排序是——人才第一、数据第二、算力第三,其他都没有什么是不可替代的。
最近几天,Sora 成为了全世界关注的焦点。与之相关的一切,都被放大到极致。
2024/02/15,农历正月初六,OpenAI 发布了王炸级产品 Sora,可以通过文字描述生成长达 60s 的视频,画面非常流畅,真实度很高。一下子在国内互联网炸开了锅,得到了广泛传播。
在 OpenAI 发布 Sora 之后,很多人惊呼人类已经迈入 AI 视频时代。除了一次次震惊世界的 AI 视频生成能力展示之外,海外网友讨论的最多的话题,还有「未来该如何避免虚假视频充斥着我们的生活」?